草庐IT

flink 流批

全部标签

Flink SQL 时区 -- 时间字符串转时间戳并转换时区

文章目录一、数据需求:二、探索路程1、UNIX_TIMESTAMP+CONVERT_TZ2、UNIX_TIMESTAMP三、解决方案TIMESTAMPADD+TO_TIMESTAMP一、数据需求:将时间字符串格式化,转变成时间戳,再加8小时后写入clickhouse2023-10-17T03:00:42.506205807---->2023-10-1711:00:42.506二、探索路程1、UNIX_TIMESTAMP+CONVERT_TZ(该方法默认精确度为秒,不适用毫秒)(1)UNIX_TIMESTAMP作用:将时间字符串转换成时间戳用法:UNIX_TIMESTAMP(STRINGdate

flink连接kafka报:org.apache.kafka.common.errors.TimeoutException

测试flink1.12.7连接kafka:packageorg.test.flink;importorg.apache.flink.api.common.serialization.SimpleStringSchema;importorg.apache.flink.streaming.api.datastream.DataStream;importorg.apache.flink.streaming.api.environment.StreamExecutionEnvironment;importorg.apache.flink.streaming.connectors.kafka.Flink

Doris-05-集成Spark、Flink、Datax,以及数据湖分析(JDBC、ODBC、ES、Hive、多源数据目录Catalog)

文章目录集成其他系统Spark读写Doris准备Spark环境使用SparkDorisConnectorFlinkDorisConnector准备Flink环境使用FlinkDorisConnectorDataXdoriswriter数据湖分析JDBC和ODBCODBC外部表使用方式使用ODBC的MySQL外表使用ODBC的Oracle外表ES外表原理使用方式参数配置查询用法使用建议JDBC外表Hive外表多源数据目录(※)基本概念HivelcebergHudiESJDBC集成其他系统准备表和数据:CREATETABLEtable1(siteidINTDEFAULT'10',citycodeS

修炼k8s+flink+hdfs+dlink(四:k8s(二)组件)

一:控制平面组件。控制平面组件会为集群做出全局决策,比如资源的调度。以及检测和响应集群事件,例如当不满足部署的replicas字段时,要启动新的pod)。1.kube-apiserver。该组件负责公开了KubernetesAPI,负责处理接受请求的工作。API服务器是Kubernetes控制平面的前端。2.kube-controller-manager。负责运行控制器进程。从逻辑上讲,每个控制器都是一个单独的进程,但是为了降低复杂性,它们都被编译到同一个可执行文件,并在同一个进程中运行。3.cloud-controller-manager。嵌入了特定于云平台的控制逻辑。云控制器管理器(Clo

使用Flink MySQL cdc分别sink到ES、Kafka、Hudi

环境说明[flink-1.13.1-bin-scala_2.11.tgz](https://archive.apache.org/dist/flink/flink-1.13.1/flink-1.13.1-bin-scala_2.11.tgz)[hadoop-2.7.3.tar.gz](https://archive.apache.org/dist/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz)[flink-cdc-connectors](https://github.com/ververica/flink-cdc-connectors)(gitc

Flink Hive Catalog操作案例

在此对Flink读写Hive表操作进行逐步记录,需要指出的是,其中操作Hive分区表和非分区表的DDL有所不同,以下分别记录。基础环境Hive-3.1.3Flink-1.17.1基本操作与准备1、上传依赖jar包到flink/lib目录下cpflink-sql-connector-hive-3.1.3_2.12-1.17.1.jarcpmysql-connector-j-8.1.0.jar2、更换planner依赖(Hive集成的推荐设置)mv/usr/sft/flink-1.17.1/opt/flink-table-planner_2.12-1.17.1.jar/usr/sft/flink-

Flink的API分层、架构与组件原理、并行度、任务执行计划

Flink的API分层        ApacheFlink的API分为四个层次,每个层次都提供不同的抽象和功能,以满足不同场景下的数据处理需求。下面是这四个层次的具体介绍:CEPAPI:FlinkAPI最底层的抽象为有状态实时流处理。其抽象实现是ProcessFunction,并且ProcessFunction被 框架集成到了DataStreamAPI中来为我们使用。它允许用户在应用程序中自由地处理来自单流或多流的事件(数据),并提供具有全局一致性和容错保障的状态。此外,用户可以在此层抽象中注册事件时间(eventtime)和处理时间(processingtime)回调方法,从而允许程序可以

Flink实现kafka到kafka、kafka到doris的精准一次消费

1流程图2Flink来源表建模--来源-城市topicCREATETABLENJ_QL_JC_SSJC_SOURCE(recordstring)WITH( 'connector'='kafka', 'topic'='QL_JC_SSJC', 'properties.bootstrap.servers'='172.*.*.*:9092', 'properties.group.id'='QL_JC_SSJC_NJ_QL_JC_SSJC_SOURCE','scan.startup.mode'='group-offsets','properties.isolation.level'='read_com

Flink-SQL 写入PostgreSQL 问题汇总

​1.主键字段为空问题错误信息org.apache.flink.table.api.TableException:Column'bus_no'isNOTNULL,however,anullvalueisbeingwrittenintoit.Youcansetjobconfiguration'table.exec.sink.not-null-enforcer'='DROP'tosuppressthisexceptionanddropsuchrecordssilently.问题原因 sink表定义了主键,flink-sql在使用jdbc插入时,定义的主键中的属性存在空值PRIMARYKEY(col

flink集群(docker版)配置及使用

1 环境说明注意:以下所有操作都在root用户下完成 sudosu -rootip操作系统版本用途192.168.30.18Ubuntu18.04.4LTSjobmanager容器、nfs服务(存储flink的checkpoint、savepoint)192.168.30.17Ubuntu18.04.4LTStaskmanager02容器192.168.30.16Ubuntu18.04.4LTStaskmanager01容器2 部署nfs在192.168.30.18节点上操作2.1安装nfs软件包#apt-getinstallrpcbind-y#apt-getinstallnfs-kernel